Enforce data residency with Amazon Quick extensions for Microsoft Teams
在本文中,我们将向您展示如何在跨多个 AWS 区域部署 Amazon Quick Microsoft Teams 扩展时强制执行数据驻留。您将了解如何配置多区域 Amazon Quick 扩展,自动将用户路由到适合 AWS 区域的资源,从而帮助遵守 GDPR 和其他数据主权要求。
Introducing Nova Forge SDK, a seamless way to customize Nova models for enterprise AI
今天,我们推出 Nova Forge SDK,使 LLM 定制变得容易,使团队能够充分利用语言模型的潜力,而无需面对依赖管理、图像选择和配方配置的挑战,并最终降低进入门槛。
How Bark.com and AWS collaborated to build a scalable video generation solution
Bark 与 AWS Generative AI 创新中心合作开发了一种由 AI 驱动的内容生成解决方案,该解决方案在实验试验中证明了生产时间大幅缩短,同时提高了内容质量得分。在这篇文章中,我们将引导您了解我们构建的技术架构、促成成功的关键设计决策以及所取得的可衡量结果,为您提供实施类似解决方案的蓝图。
Migrate from Amazon Nova 1 to Amazon Nova 2 on Amazon Bedrock
在本文中,您将了解如何在 Amazon Bedrock 上从 Nova 1 迁移到 Nova 2。我们涵盖模型映射、API 更改、使用 Converse API 的代码示例、配置新功能的指南以及用例摘要。我们最后提供了一份迁移清单,以帮助您规划和执行迁移。
AWS and NVIDIA deepen strategic collaboration to accelerate AI from pilot to production
今天,在 NVIDIA GTC 2026 上,AWS 和 NVIDIA 宣布扩大新技术集成合作,以支持不断增长的 AI 计算需求,并帮助您构建和运行可投入生产的 AI 解决方案。
Agentic AI in the Enterprise Part 2: Guidance by Persona
这是 AWS Generative AI 创新中心的两部分系列的第二部分。在第二部分中,我们直接与领导人对话,他们必须将这一共同基础转化为行动。每个角色都有一组不同的责任、风险和杠杆点。无论您拥有损益表、运行企业架构、领导安全、管理数据还是管理合规性,本节都是用您的工作语言编写的,因为这就是代理人工智能成功或悄然消亡的地方。
Introducing Disaggregated Inference on AWS powered by llm-d
在这篇博文中,我们介绍了下一代推理能力背后的概念,包括分解服务、智能请求调度和专家并行。我们讨论它们的优势,并介绍如何在 Amazon SageMaker HyperPod EKS 上实施它们,以显着提高推理性能、资源利用率和运营效率。
How Workhuman built multi-tenant self-service reporting using Amazon Quick Sight embedded dashboards
本文探讨了 Workhuman 如何转变其分析交付模式以及从其实施过程中汲取的主要经验教训。我们将详细介绍他们的架构方法、实施策略以及他们所取得的业务成果,为您提供实用的蓝图,帮助您将嵌入式分析添加到您自己的软件即服务 (SaaS) 应用程序中。
Build an offline feature store using Amazon SageMaker Unified Studio and SageMaker Catalog
此博文提供了有关在 SageMaker Unified Studio 域中使用 SageMaker Catalog 实施离线功能存储的分步指南。通过采用发布-订阅模式,数据生产者可以使用此解决方案来发布精选的版本化特征表,而数据消费者可以安全地发现、订阅和重用它们以进行模型开发。
P-EAGLE: Faster LLM inference with Parallel Speculative Decoding in vLLM
在这篇文章中,我们将解释 P-EAGLE 的工作原理、如何将其集成到从 v0.16.0 (PR#32887) 开始的 vLLM 中,以及如何通过预先训练的检查点为其提供服务。
今天,我们宣布针对 Amazon Bedrock 推出两个新的 Amazon CloudWatch 指标:TimeToFirstToken 和 EstimatedTPMQuotaUsage。在这篇文章中,我们将介绍它们的工作原理以及如何设置警报、建立基线以及使用它们主动管理容量。
Secure AI agents with Policy in Amazon Bedrock AgentCore
在本文中,您将了解 Amazon Bedrock AgentCore 中的策略如何创建一个独立于代理自身推理运行的确定性执行层。您将学习如何将业务规则的自然语言描述转化为 Cedar 策略,然后使用这些策略来实施细粒度的身份感知控制,以便代理仅访问其用户有权使用的工具和数据。您还将了解如何通过 AgentCore Gateway 应用策略,在运行时拦截和评估每个代理到工具的请求。
Operationalizing Agentic AI Part 1: A Stakeholder’s Guide
AWS 生成式 AI 创新中心已帮助 1,000 多家客户将 AI 应用于生产,实现了数百万记录在案的生产力提升。在这篇文章中,我们为 C-suite 领导者分享指导:CTO、CISO、CDO、首席数据科学/人工智能官,以及企业主和合规主管。
Accelerate custom LLM deployment: Fine-tune with Oumi and deploy to Amazon Bedrock
在这篇文章中,我们将展示如何在 Amazon EC2 上使用 Oumi 微调 Llama 模型(可以选择使用 Oumi 创建合成数据)、在 Amazon S3 中存储工件以及使用自定义模型导入部署到 Amazon Bedrock 进行托管推理。
Run NVIDIA Nemotron 3 Nano as a fully managed serverless model on Amazon Bedrock
我们很高兴地宣布,NVIDIA 的 Nemotron 3 Nano 现已在 Amazon Bedrock 中作为完全托管的无服务器模型提供。此前,我们在 AWS re:Invent 上宣布支持 NVIDIA Nemotron 2 Nano 9B 和 NVIDIA Nemotron 2 Nano VL 12B 型号。本文探讨了 NVIDIA Nemotron 3 Nano 模型的技术特征并讨论了潜在的应用用例。此外,它还提供技术指导,帮助您开始在 Amazon Bedrock 环境中将此模型用于生成 AI 应用程序。
Access Anthropic Claude models in India on Amazon Bedrock with Global cross-Region inference
在本文中,您将了解如何在印度使用 Amazon Bedrock 的全球跨区域推理来处理 Claude 模型。我们将指导您了解每个 Claude 模型变体的功能以及如何开始使用代码示例,以帮助您立即开始构建生成式 AI 应用程序。
How Ricoh built a scalable intelligent document processing solution on AWS
本文探讨了理光如何使用 AWS GenAI IDP Accelerator 作为基础构建标准化的多租户解决方案,用于自动文档分类和提取,从而将其文档处理从自定义工程瓶颈转变为可扩展、可重复的服务。
Building a scalable virtual try-on solution using Amazon Nova on AWS: part 1
在这篇文章中,我们将探讨 Amazon Nova Canvas 中现有的虚拟试穿功能,包括快速入门的示例代码以及帮助获得最佳输出的提示。